- Wilder Westen
- Wilder Westen,in Nordamerika die v. a. während des 19. Jahrhunderts im Rahmen der Expansion nach Westen vorrückende Übergangsregion vom administrierten Siedlungsgebiet der Einwanderer (»Zivilisation«) zum Indianerterritorium (»Wildnis«). Der Wilde Westen, geprägt durch blutige Kämpfe der vordringenden Siedler und Abenteurer mit den Indianern, durch Pioniergeist und harten Existenzkampf (zum Teil Selbstjustiz) der Einwanderer, durch Goldsucherströme und die Auseinandersetzungen zwischen Ranchern, Cowboys und den sie verdrängenden Ackerbauern, wurde vielfach - zumeist verklärend und klischeehaft - in Literatur und Film (Western) thematisiert. (Frontier)H. J. Stammel: Der W. W. im Bild (Neuausg. 1990);V. Zarbo: Die wahre Gesch. des W. W. (a. d. Ital., 1997).
Universal-Lexikon. 2012.